home *** CD-ROM | disk | FTP | other *** search
/ EnigmA Amiga Run 1997 July / EnigmA AMIGA RUN 20 (1997)(G.R. Edizioni)(IT)[!][issue 1997-07 & 08][EAR-CD IV].iso / earcd / dev / c / amcsrc2.lha / AMCSources2 / NeuralN / READ.ME < prev    next >
Text File  |  1996-07-01  |  5KB  |  137 lines

  1. -------------------------------------------------------------------------------
  2.                 Back Propagation Neural Net Engine v1.33u
  3.                            for C programmers
  4.  
  5.                           by Patrick Ko Shu-pui
  6.  
  7.                   Copyright (c) 1991, 1992 All Rights Reserved.
  8. -------------------------------------------------------------------------------
  9. ADDRESS TO CONTACT:
  10.  
  11.             internet: ko053@cs.cuhk.hk
  12.             fidonet:  patrick ko, 6:700/132 BiG Programming Club 
  13.  
  14.             mailing:  Patrick Ko
  15.                       No.11, 14 ST.,
  16.                       Hong Lok Yuen,
  17.                       Tai Po, Hong Kong
  18. -------------------------------------------------------------------------------
  19. WHATS NEW in v1.31u:
  20.  
  21.         -       adaptive learning coefficients
  22.         -       C-programmer-friendly C sources
  23.         -       periodic neural net dump
  24.  
  25. WHATS NEW in v1.32u:
  26.  
  27.         -       support response file and inline comments
  28.         -       configurable random weight range
  29.         -       configurable tolerance error
  30.  
  31. WHATS NEW in v1.33u
  32.  
  33.         -       bug fix in cparser multiple @files
  34.  
  35. HOW TO COMPILE:
  36.  
  37.         This version support 2 platforms:
  38.  
  39.         1.      DOS under PC - use Borland's MAKE with makefile.dos and TCC 2.0
  40.         2.      Ultrix under DECstation - use makefile.ux
  41.         3.      SUNs - use makefile.ux
  42.         4.      AMIGA - use DICE C 3.0
  43.  
  44. WHAT IS Bptrain and Bprecog?
  45. Bptrain is a program to let you create your Neural Net with desired topology
  46. (subject to some limitations, see CONSTANT) and you may train this NN with
  47. back propagation algorithm found in the REFERENCE.
  48.  
  49. Bprecog is a program to let you create the NN that could read back the
  50. stablized weights generated from Bptrain and use these weights to recognize
  51. some new or old patterns.
  52.  
  53.  
  54. HOW TO USE?
  55. Step 1:         Define a training file, specifying all input patterns
  56.                 and expected output.
  57.                 For example, if your input is 2 units and output 1 unit,
  58.                 and you have 4 patterns to train, (See DEMO1.TRN)
  59.                 you write:
  60.                         +-+----------- input
  61.                         0 0  0
  62.                         0 1  1
  63.                         1 0  1
  64.                         1 1  0
  65.                              +-------- output
  66.  
  67.                 NOTE: all the input/output values must be normalized.
  68.                 That is, they should be within the range of 0 to 1.
  69.  
  70. Step 2:         Define a recognizing file, containing another set of
  71.                 input patterns which you would like to recognize.
  72.                 For example, if after Step 1 you would like your NN to
  73.                 recognize 1 0 and 0.99 0.02, (See DEMO1.RGN)
  74.                 you write:
  75.                         +-+----------- input
  76.                         1 0
  77.                         0.99 0.02
  78.  
  79. Step 3:         Configure your NN topology by specifying it to BOTH
  80.                 BPTRAIN and BPRECOG. (See DEMO1.BAT)
  81.  
  82. Step 4:         After BPTRAIN, it will output a DUMP file which contains
  83.                 the adapted weights for the NN. Run BPRECOG afterwards and
  84.                 it will output a OUT file (you may specify its name) which
  85.                 contains the result of the recognizing file. For example,
  86.                 the result from DEMO1.RGN may become:
  87.  
  88.                         0.9965    (very close to 1)
  89.                         0.0013    (very close to 0)
  90.  
  91. Please refer to the two demostration file DEMO1.BAT and DEMO2.BAT.
  92.  
  93. NOTE: in v1.32u I have introduced the response file feature.  Please refer
  94.       to the files *.rsp together with the .bat files for details.  Also
  95.       please note that in the response file '//' is treated as comments at
  96.       the beginning of non-space characters in each line. 
  97.  
  98.  
  99. CONSTRAINTS
  100. - The Neural Net (NN) created is fully connected.
  101.  
  102.  
  103. REFERENCE
  104. "Learning Internal Representations by Error Propagation", D.E.Rumelhart.,
  105. G.E.Hinton., and R.J.Williams, Chapter 8 of Parallel Distributed Processing,
  106. Vol 1., MIT Press, Cambridge, Massachusetts.
  107.  
  108. "An Adaptive Training Algorithm for Back Propagation Networks", L.W.Chan.,
  109. and F.Fallside. Computer Speech and Language (1987) 2, pp.205-218.
  110.  
  111. AUTHOR
  112. All the sources are written by Patrick KO Shu Pui
  113.  
  114. PORTING
  115.  
  116.         AMIGA:
  117.  
  118.         Alain Martini ,Fraz Ronc Inferiore 15, 11027 Saint Vincent Aosta 
  119.         amrtn@freenet.hut.fi
  120.         fidonet: 2:334/21.36
  121.   
  122. ===============================================================================
  123. AUTHORIZATION NOTICE
  124.  
  125. This C source package BPNN133U.ZIP(or bpnn133u.tar.Z) is FREELY
  126. DISTRIBUTABLE under all circumstances.
  127.  
  128. This C source package BPNN133U.ZIP(or bpnn133u.tar.Z) is FREE to be
  129. used for ACADEMIC purpose only.  It is freely modifiable, included in
  130. any other sources, projects, or whosoever provided that the author's
  131. name is acknowledged.
  132.  
  133. For COMMERCIAL use, authorization is required from the author.
  134. Please contact the author via any channel stated above.
  135. ===============================================================================
  136.  
  137.